针对直肠癌目标靶区在磁共振成像(MRI)图像的大小、形状、纹理和边界清晰程度不同等问题,为了克服患者之间的个体差异性并提高分割精度,提出一种基于邻近切片注意力融合的直肠癌分割网络(ASAF-Net)。首先,使用高分辨率网络(HRNet)作为主干网络,并在特征提取过程始终保持高分辨率特征表示,以减少语义信息和空间位置信息的损失;其次,通过邻近切片注意力融合(ASAF)模块融合并增强相邻切片之间的多尺度上下文语义信息,使网络能够学习相邻切片之间的空间特征;最后,在解码网络使用全卷积网络(FCN)和空洞空间金字塔池化(ASPP)分割头协同训练,并通过添加相邻切片间的一致性约束作为辅助损失缓解训练过程中出现的相邻切片差异过大的问题。实验结果表明,与HRNet相比,ASAF-Net在平均交并比(IoU)、平均Dice相似系数(DSC)指标上分别提升了1.68和1.26个百分点,平均95%豪斯多夫距离(HD)降低了0.91 mm。同时,ASAF-Net在直肠癌MRI图像多目标靶区的内部填充和边界预测方面均能实现更好的分割效果,有助于提升医生在临床辅助诊断中的效率。
多模态医学图像可以为临床医生提供靶区(如肿瘤、器官或组织)的丰富信息。然而,由于多模态图像之间相互独立且仅有互补性,如何有效融合多模态图像并进行分割仍是亟待解决的问题。传统的图像融合方法难以有效解决此问题,因此基于深度学习的多模态医学图像分割算法得到了广泛的研究。从原理、技术、问题及展望等方面对基于深度学习的多模态医学图像分割任务进行了综述。首先,介绍了深度学习与多模态医学图像分割的一般理论,包括深度学习与卷积神经网络(CNN)的基本原理与发展历程,以及多模态医学图像分割任务的重要性;其次,介绍了多模态医学图像分割的关键概念,包括数据维度、预处理、数据增强、损失函数以及后处理等;接着,对基于不同融合策略的多模态分割网络进行综述,对不同方式的融合策略进行分析;最后,对医学图像分割过程中常见的几个问题进行探讨,并对今后研究作了总结与展望。
针对超声心动周期序列图的腔室自动分割过程中,弱边缘轮廓难以有效提取的问题,提出一种基于加速健壮特征(SURF)拟合算法和Chan-Vese模型的超声图像腔室分割方法。首先对序列中第一帧图像进行人工标记弱边缘轮廓;然后,提取弱边缘轮廓周围的SURF点,建立Delaunay三角网;接着,通过相邻两帧之间的特征点匹配,预测后续帧的弱边缘轮廓;之后,用Chan-Vese模型提取粗糙轮廓;最后采用区域生长算法得到精确的目标轮廓。实验结果表明,该算法能较好地完整提取超声序列图像中含弱边缘的腔室轮廓,并且与专家手动分割结果相近。
特征提取是图像检索或图像配准的关键步骤,针对单一特征不能很好地表述图像的问题, 根据医学图像的特点,提出了一种融合全局特征和局部特征的医学图像检索算法。首先在研究单一特征医学图像检索算法的基础上, 提出了融合全局特征和相关反馈的检索算法;其次对尺度不变特征转换(SIFT)特征进行了优化,提出了改进的SIFT 特征提取算法和匹配算法;最后,为了保证结果的准确性并改进检索效果,采用了融合局部特征的方法逐步求精。通过对标准临床数字式X射线成像(DR)图像数据库的实验研究表明,该算法应用在医学图像的检索中有较好的结果。